Loading...
机构名称:
¥ 1.0

生成模型(例如大语言模型(LLMS))被广泛用作代码副本,并用于整个程序生成。但是,他们生成的程序通常在集成方面具有可疑的正确性,安全性和可靠性,因为它们可能不遵循用户要求,不正确和/或毫无意义的输出,甚至包含语义/语法错误 - 总体称为LLM幻觉。在这项工作中,我们介绍了几种类型的代码Hal-Lucination。我们已经使用LLM手动生成了此类幻觉代码。我们还提出了一种技术 - Halltrigger,以展示产生任意代码幻觉的有效方法。我们的方法利用了3个不同的LLM的动态属性到工艺提示,可以成功地触发模型幻觉,而无需访问模型体系结构或参数。受欢迎的黑盒模型的结果表明,Halltrigger确实是有效的,而普遍的LLM幻觉对软件开发产生了巨大影响。

arxiv:2407.04831v2 [cs.ai] 2024年8月8日

arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第1页

arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第2页

arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第3页

arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第4页

arxiv:2407.04831v2 [cs.ai] 2024年8月8日PDF文件第5页

相关文件推荐